Text copied to clipboard!

Título

Text copied to clipboard!

Desarrollador de Big Data

Descripción

Text copied to clipboard!
Estamos buscando un Desarrollador de Big Data altamente motivado y con experiencia para unirse a nuestro equipo de tecnología. Esta posición es clave para diseñar, construir y mantener soluciones de procesamiento de datos a gran escala que permitan a la organización tomar decisiones basadas en datos. El candidato ideal debe tener un sólido conocimiento de tecnologías de Big Data, habilidades de programación y experiencia trabajando con grandes volúmenes de datos en entornos distribuidos. Como Desarrollador de Big Data, trabajarás en colaboración con científicos de datos, ingenieros de datos y otros desarrolladores para implementar soluciones eficientes y escalables. Serás responsable de desarrollar pipelines de datos, optimizar procesos de extracción, transformación y carga (ETL), y garantizar la calidad y seguridad de los datos. Además, deberás estar al tanto de las últimas tendencias y herramientas en el ecosistema de Big Data para proponer mejoras continuas. Tus tareas incluirán la implementación de soluciones utilizando tecnologías como Hadoop, Spark, Kafka, Hive, y bases de datos NoSQL como Cassandra o MongoDB. También deberás tener experiencia en lenguajes de programación como Java, Scala o Python, y estar familiarizado con entornos de nube como AWS, Azure o Google Cloud Platform. Buscamos a alguien con mentalidad analítica, capacidad para resolver problemas complejos y habilidades de comunicación para trabajar en equipos multidisciplinarios. Si te apasiona trabajar con datos y deseas contribuir a proyectos innovadores que impactan directamente en la toma de decisiones empresariales, esta es tu oportunidad. Ofrecemos un entorno de trabajo dinámico, oportunidades de desarrollo profesional, y la posibilidad de trabajar en proyectos desafiantes con tecnologías de vanguardia. Únete a nosotros y sé parte de una organización que valora la innovación, la colaboración y el crecimiento continuo.

Responsabilidades

Text copied to clipboard!
  • Diseñar y desarrollar pipelines de datos escalables.
  • Implementar procesos ETL eficientes y seguros.
  • Trabajar con tecnologías como Hadoop, Spark y Kafka.
  • Colaborar con equipos de ciencia de datos e ingeniería.
  • Optimizar el rendimiento de sistemas de procesamiento de datos.
  • Garantizar la calidad y seguridad de los datos.
  • Monitorear y mantener infraestructuras de Big Data.
  • Proponer mejoras técnicas y nuevas herramientas.
  • Documentar procesos y soluciones implementadas.
  • Participar en revisiones de código y buenas prácticas.

Requisitos

Text copied to clipboard!
  • Título universitario en Ingeniería Informática, Sistemas o afines.
  • Experiencia comprobada en desarrollo de soluciones Big Data.
  • Conocimiento avanzado de Hadoop, Spark, Hive y Kafka.
  • Dominio de lenguajes como Java, Scala o Python.
  • Experiencia con bases de datos NoSQL (MongoDB, Cassandra).
  • Familiaridad con servicios en la nube (AWS, Azure, GCP).
  • Capacidad para trabajar en equipos multidisciplinarios.
  • Habilidades analíticas y de resolución de problemas.
  • Conocimiento de herramientas de orquestación como Airflow.
  • Nivel intermedio o avanzado de inglés técnico.

Posibles preguntas de la entrevista

Text copied to clipboard!
  • ¿Cuántos años de experiencia tienes trabajando con tecnologías Big Data?
  • ¿Qué lenguajes de programación dominas para el desarrollo de soluciones de datos?
  • ¿Has trabajado con plataformas en la nube? ¿Cuáles?
  • ¿Tienes experiencia implementando pipelines de datos en producción?
  • ¿Qué herramientas de orquestación de datos has utilizado?
  • ¿Cómo aseguras la calidad y seguridad de los datos en tus proyectos?
  • ¿Has trabajado en equipos ágiles o con metodologías Scrum?
  • ¿Qué retos técnicos has enfrentado en proyectos de Big Data?
  • ¿Estás dispuesto a aprender nuevas tecnologías si el proyecto lo requiere?
  • ¿Cuál es tu nivel de inglés técnico?